home *** CD-ROM | disk | FTP | other *** search
/ CU Amiga Super CD-ROM 15 / CU Amiga Magazine's Super CD-ROM 15 (1997)(EMAP Images)(GB)[!][issue 1997-10].iso / CUCD / Graphics / Ghostscript / source / gxht.c < prev    next >
C/C++ Source or Header  |  1997-03-02  |  15KB  |  459 lines

  1. /* Copyright (C) 1989, 1995, 1996, 1997 Aladdin Enterprises.  All rights reserved.
  2.   
  3.   This file is part of Aladdin Ghostscript.
  4.   
  5.   Aladdin Ghostscript is distributed with NO WARRANTY OF ANY KIND.  No author
  6.   or distributor accepts any responsibility for the consequences of using it,
  7.   or for whether it serves any particular purpose or works at all, unless he
  8.   or she says so in writing.  Refer to the Aladdin Ghostscript Free Public
  9.   License (the "License") for full details.
  10.   
  11.   Every copy of Aladdin Ghostscript must include a copy of the License,
  12.   normally in a plain ASCII text file named PUBLIC.  The License grants you
  13.   the right to copy, modify and redistribute Aladdin Ghostscript, but only
  14.   under certain conditions described in the License.  Among other things, the
  15.   License requires that the copyright notice and this notice be preserved on
  16.   all copies.
  17. */
  18.  
  19. /* gxht.c */
  20. /* Halftone rendering routines for Ghostscript imaging library */
  21. #include "memory_.h"
  22. #include "gx.h"
  23. #include "gserrors.h"
  24. #include "gsstruct.h"
  25. #include "gsbitops.h"
  26. #include "gsutil.h"            /* for gs_next_ids */
  27. #include "gxdcolor.h"
  28. #include "gxfixed.h"
  29. #include "gxdevice.h"            /* for gzht.h */
  30. #include "gxistate.h"
  31. #include "gzht.h"
  32.  
  33. /* Define the sizes of the halftone cache. */
  34. #define max_cached_tiles_HUGE 5000    /* not used */
  35. #define max_ht_bits_HUGE 1000000    /* not used */
  36. #define max_cached_tiles_LARGE 577
  37. #define max_ht_bits_LARGE 100000
  38. #define max_cached_tiles_SMALL 25
  39. #define max_ht_bits_SMALL 1000
  40.  
  41. /* Define the binary halftone device color type. */
  42. private dev_color_proc_load(gx_dc_ht_binary_load);
  43. private dev_color_proc_fill_rectangle(gx_dc_ht_binary_fill_rectangle);
  44. private struct_proc_enum_ptrs(dc_ht_binary_enum_ptrs);
  45. private struct_proc_reloc_ptrs(dc_ht_binary_reloc_ptrs);
  46. const gx_device_color_procs
  47.   gx_dc_procs_ht_binary =
  48.     { gx_dc_ht_binary_load, gx_dc_ht_binary_fill_rectangle,
  49.       gx_dc_default_fill_masked,
  50.       dc_ht_binary_enum_ptrs, dc_ht_binary_reloc_ptrs
  51.     };
  52. #undef gx_dc_type_ht_binary
  53. const gx_device_color_procs _ds *gx_dc_type_ht_binary = &gx_dc_procs_ht_binary;
  54. #define gx_dc_type_ht_binary (&gx_dc_procs_ht_binary)
  55. /* GC procedures */
  56. #define cptr ((gx_device_color *)vptr)
  57. private ENUM_PTRS_BEGIN(dc_ht_binary_enum_ptrs) return 0;
  58.     ENUM_PTR(0, gx_device_color, colors.binary.b_ht);
  59.     case 1:
  60.     {    gx_ht_tile *tile = cptr->colors.binary.b_tile;
  61.         ENUM_RETURN(tile - tile->index);
  62.     }
  63. ENUM_PTRS_END
  64. private RELOC_PTRS_BEGIN(dc_ht_binary_reloc_ptrs) {
  65.     uint index = cptr->colors.binary.b_tile->index;
  66.     RELOC_PTR(gx_device_color, colors.binary.b_ht);
  67.     RELOC_TYPED_OFFSET_PTR(gx_device_color, colors.binary.b_tile, index);
  68. } RELOC_PTRS_END
  69. #undef cptr
  70.  
  71. /* Other GC procedures */
  72. private_st_ht_tiles();
  73. private ENUM_PTRS_BEGIN_PROC(ht_tiles_enum_ptrs) {
  74.     return 0;
  75. } ENUM_PTRS_END_PROC
  76. private RELOC_PTRS_BEGIN(ht_tiles_reloc_ptrs) {
  77.     /* Reset the bitmap pointers in the tiles. */
  78.     /* We know the first tile points to the base of the bits. */
  79.     gx_ht_tile *ht_tiles = vptr;
  80.     byte *bits = ht_tiles->tiles.data;
  81.     uint diff;
  82.  
  83.     if ( bits == 0 )
  84.       return;
  85.     bits = gs_reloc_struct_ptr(bits, gcst);
  86.     if ( size == size_of(gx_ht_tile) )    /* only 1 tile */
  87.       {    ht_tiles->tiles.data = bits;
  88.         return;
  89.       }
  90.     diff = ht_tiles[1].tiles.data - ht_tiles[0].tiles.data;
  91.     for ( ; size; ht_tiles++, size -= size_of(gx_ht_tile), bits += diff )
  92.       {    ht_tiles->tiles.data = bits;
  93.       }
  94. } RELOC_PTRS_END
  95. private_st_ht_cache();
  96.  
  97. /* Return the default sizes of the halftone cache. */
  98. uint
  99. gx_ht_cache_default_tiles(void)
  100. {
  101. #if arch_small_memory
  102.     return max_cached_tiles_SMALL;
  103. #else
  104.     return (gs_if_debug_c('.') ? max_cached_tiles_SMALL :
  105.         max_cached_tiles_LARGE);
  106. #endif
  107. }
  108. uint
  109. gx_ht_cache_default_bits(void)
  110. {
  111. #if arch_small_memory
  112.     return max_ht_bits_SMALL;
  113. #else
  114.     return (gs_if_debug_c('.') ? max_ht_bits_SMALL :
  115.         max_ht_bits_LARGE);
  116. #endif
  117. }
  118.  
  119. /* Allocate a halftone cache. */
  120. gx_ht_cache *
  121. gx_ht_alloc_cache(gs_memory_t *mem, uint max_tiles, uint max_bits)
  122. {    gx_ht_cache *pcache =
  123.       gs_alloc_struct(mem, gx_ht_cache, &st_ht_cache,
  124.               "alloc_ht_cache(struct)");
  125.     byte *tbits =
  126.       gs_alloc_bytes(mem, max_bits, "alloc_ht_cache(bits)");
  127.     gx_ht_tile *ht_tiles =
  128.       gs_alloc_struct_array(mem, max_tiles, gx_ht_tile, &st_ht_tiles,
  129.                 "alloc_ht_cache(ht_tiles)");
  130.  
  131.     if ( pcache == 0 || tbits == 0 || ht_tiles == 0 )
  132.     {    gs_free_object(mem, ht_tiles, "alloc_ht_cache(ht_tiles)");
  133.         gs_free_object(mem, tbits, "alloc_ht_cache(bits)");
  134.         gs_free_object(mem, pcache, "alloc_ht_cache(struct)");
  135.         return 0;
  136.     }
  137.     pcache->bits = tbits;
  138.     pcache->bits_size = max_bits;
  139.     pcache->ht_tiles = ht_tiles;
  140.     pcache->num_tiles = max_tiles;
  141.     pcache->order.cache = pcache;
  142.     pcache->order.transfer = 0;
  143.     gx_ht_clear_cache(pcache);
  144.     return pcache;
  145. }
  146.  
  147. /* Free a halftone cache. */
  148. void
  149. gx_ht_free_cache(gs_memory_t *mem, gx_ht_cache *pcache)
  150. {    gs_free_object(mem, pcache->ht_tiles, "free_ht_cache(ht_tiles)");
  151.     gs_free_object(mem, pcache->bits, "free_ht_cache(bits)");
  152.     gs_free_object(mem, pcache, "free_ht_cache(struct)");
  153. }
  154.  
  155. /* Make the cache order current, and return whether */
  156. /* there is room for all possible tiles in the cache. */
  157. bool
  158. gx_check_tile_cache(const gs_imager_state *pis)
  159. {    const gx_ht_order *porder = &pis->dev_ht->order;
  160.     gx_ht_cache *pcache = pis->ht_cache;
  161.  
  162.     if ( pcache == 0 || pis->dev_ht == 0 )
  163.       return false;        /* no halftone or cache */
  164.     if ( pcache->order.bits != porder->bits )
  165.       gx_ht_init_cache(pcache, porder);
  166.     return pcache->levels_per_tile == 1;
  167. }
  168.  
  169. /*
  170.  * Determine whether a given (width, y, height) might fit into a single
  171.  * (non-strip) tile. If so, return the byte offset of the appropriate row
  172.  * from the beginning of the tile, and set *ppx to the x phase offset
  173.  * within the tile; if not, return -1.
  174.  */
  175. int
  176. gx_check_tile_size(const gs_imager_state *pis, int w, int y, int h,
  177.   gs_color_select_t select, int *ppx)
  178. {    int tsy;
  179.     const gx_strip_bitmap *ptile0;
  180.  
  181.     if ( pis->ht_cache == 0 )
  182.       return -1;        /* no halftone cache */
  183.     ptile0 = &pis->ht_cache->ht_tiles[0].tiles;    /* a typical tile */
  184.     if ( h > ptile0->rep_height || w > ptile0->rep_width ||
  185.          ptile0->shift != 0
  186.        )
  187.       return -1;
  188.     tsy = (y + imod(-pis->screen_phase[select].y, ptile0->rep_height)) %
  189.       ptile0->rep_height;
  190.     if ( tsy + h > ptile0->size.y )
  191.       return -1;
  192.     /* Tile fits in Y, might fit in X. */
  193.     *ppx = imod(-pis->screen_phase[select].x, ptile0->rep_width);
  194.     return tsy * ptile0->raster;
  195. }
  196.  
  197. /* Render a given level into a halftone cache. */
  198. private int render_ht(P4(gx_ht_tile *, int, const gx_ht_order *,
  199.              gx_bitmap_id));
  200. gx_ht_tile *
  201. gx_render_ht(gx_ht_cache *pcache, int b_level)
  202. {    const gx_ht_order *porder = &pcache->order;
  203.     int level = porder->levels[b_level];
  204.     gx_ht_tile *bt = &pcache->ht_tiles[level / pcache->levels_per_tile];
  205.  
  206.     if ( bt->level != level )
  207.       { int code = render_ht(bt, level, porder, pcache->base_id + b_level);
  208.         if ( code < 0 )
  209.           return 0;
  210.       }
  211.     return bt;
  212. }
  213.  
  214. /* Load the device color into the halftone cache if needed. */
  215. private int
  216. gx_dc_ht_binary_load(gx_device_color *pdevc, const gs_imager_state *pis,
  217.   gx_device *dev, gs_color_select_t select)
  218. {    const gx_ht_order *porder = &pis->dev_ht->order;
  219.     gx_ht_cache *pcache = pis->ht_cache;
  220.  
  221.     if ( pcache->order.bits != porder->bits )
  222.       gx_ht_init_cache(pcache, porder);
  223.     /* Expand gx_render_ht inline for speed. */
  224.     { int b_level = pdevc->colors.binary.b_level;
  225.       int level = porder->levels[b_level];
  226.       gx_ht_tile *bt = &pcache->ht_tiles[level / pcache->levels_per_tile];
  227.  
  228.       if ( bt->level != level )
  229.         { int code = render_ht(bt, level, porder,
  230.                    pcache->base_id + b_level);
  231.           if ( code < 0 )
  232.         return_error(gs_error_Fatal);
  233.         }
  234.       pdevc->colors.binary.b_tile = bt;
  235.     }
  236.     return 0;
  237. }
  238.  
  239. /* Fill a rectangle with a binary halftone. */
  240. /* Note that we treat this as "texture" for RasterOp. */
  241. private int
  242. gx_dc_ht_binary_fill_rectangle(const gx_device_color *pdevc, int x, int y,
  243.   int w, int h, gx_device *dev, gs_logical_operation_t lop,
  244.   const gx_rop_source_t *source)
  245. {    gx_rop_source_t no_source;
  246.  
  247.     /*
  248.      * Observation of H-P devices and documentation yields confusing
  249.      * evidence about whether white pixels in halftones are always
  250.      * opaque.  It appears that for black-and-white devices, these
  251.      * pixels are *not* opaque.
  252.      */
  253.     if ( dev->color_info.depth > 1 )
  254.       lop &= ~lop_T_transparent;
  255.     if ( source == NULL && lop_no_S_is_T(lop) )
  256.       return (*dev_proc(dev, strip_tile_rectangle))(dev,
  257.                 &pdevc->colors.binary.b_tile->tiles,
  258.                 x, y, w, h, pdevc->colors.binary.color[0],
  259.                 pdevc->colors.binary.color[1],
  260.                 pdevc->phase.x, pdevc->phase.y);
  261.     /* Adjust the logical operation per transparent colors. */
  262.     if ( pdevc->colors.binary.color[0] == gx_no_color_index )
  263.       lop = rop3_use_D_when_T_0(lop);
  264.     if ( pdevc->colors.binary.color[1] == gx_no_color_index )
  265.       lop = rop3_use_D_when_T_1(lop);
  266.     if ( source == NULL )
  267.       set_rop_no_source(source, no_source, dev);
  268.     return (*dev_proc(dev, strip_copy_rop))(dev, source->sdata,
  269.                 source->sourcex, source->sraster, source->id,
  270.                 (source->use_scolors ? source->scolors : NULL),
  271.                 &pdevc->colors.binary.b_tile->tiles,
  272.                 pdevc->colors.binary.color,
  273.                 x, y, w, h, pdevc->phase.x, pdevc->phase.y,
  274.                 lop);
  275. }
  276.  
  277. /* Initialize the tile cache for a given screen. */
  278. /* Cache as many different levels as will fit. */
  279. void
  280. gx_ht_init_cache(gx_ht_cache *pcache, const gx_ht_order *porder)
  281. {    uint width = porder->width;
  282.     uint height = porder->height;
  283.     uint size = width * height + 1;
  284.     int width_unit =
  285.       (width <= ht_mask_bits / 2 ? ht_mask_bits / width * width :
  286.        width);
  287.     int height_unit = height;
  288.     uint raster = porder->raster;
  289.     uint tile_bytes = raster * height;
  290.     uint shift = porder->shift;
  291.     int num_cached;
  292.     int i;
  293.     byte *tbits = pcache->bits;
  294.  
  295.     /* Make sure num_cached is within bounds */
  296.     num_cached = pcache->bits_size / tile_bytes;
  297.     if ( num_cached > size )
  298.       num_cached = size;
  299.     if ( num_cached > pcache->num_tiles )
  300.       num_cached = pcache->num_tiles;
  301.     if ( num_cached == size &&
  302.          tile_bytes * num_cached <= pcache->bits_size / 2
  303.        )
  304.       {    /*
  305.          * We can afford to replicate every tile in the cache,
  306.          * which will reduce breakage when tiling.  Since
  307.          * horizontal breakage is more expensive than vertical,
  308.          * and since wide shallow fills are more common than
  309.          * narrow deep fills, we replicate the tile horizontally.
  310.          * We do have to be careful not to replicate the tile
  311.          * to an absurdly large size, however.
  312.          */
  313.         uint rep_raster =
  314.           ((pcache->bits_size / num_cached) / height) &
  315.             ~(align_bitmap_mod - 1);
  316.         uint rep_count = rep_raster * 8 / width;
  317.         /*
  318.          * There's no real value in replicating the tile
  319.          * beyond the point where the byte width of the replicated
  320.          * tile is a multiple of a long.
  321.          */
  322.         if ( rep_count > sizeof(ulong) * 8 )
  323.           rep_count = sizeof(ulong) * 8;
  324.         width_unit = width * rep_count;
  325.         raster = bitmap_raster(width_unit);
  326.         tile_bytes = raster * height;
  327.       }
  328.     pcache->base_id = gs_next_ids(porder->num_levels + 1);
  329.     pcache->order = *porder;
  330.     pcache->num_cached = num_cached;
  331.     pcache->levels_per_tile = (size + num_cached - 1) / num_cached;
  332.     memset(tbits, 0, pcache->bits_size);
  333.     for ( i = 0; i < num_cached; i++, tbits += tile_bytes )
  334.     {    register gx_ht_tile *bt = &pcache->ht_tiles[i];
  335.         bt->level = 0;
  336.         bt->index = i;
  337.         bt->tiles.data = tbits;
  338.         bt->tiles.raster = raster;
  339.         bt->tiles.size.x = width_unit;
  340.         bt->tiles.size.y = height_unit;
  341.         bt->tiles.rep_width = width;
  342.         bt->tiles.rep_height = height;
  343.         bt->tiles.shift = bt->tiles.rep_shift = shift;
  344.     }
  345. }
  346.  
  347. /*
  348.  * Compute and save the rendering of a given gray level
  349.  * with the current halftone.  The cache holds multiple tiles,
  350.  * where each tile covers a range of possible levels.
  351.  * We adjust the tile whose range includes the desired level incrementally;
  352.  * this saves a lot of time for the average image, where gray levels
  353.  * don't change abruptly.  Note that the "level" is the number of bits,
  354.  * not the index in the levels vector.
  355.  */
  356. private int
  357. render_ht(gx_ht_tile *pbt, int level /* [1..num_bits-1] */,
  358.   const gx_ht_order *porder, gx_bitmap_id new_id)
  359. {    int old_level = pbt->level;
  360.     register gx_ht_bit *p = &porder->bits[old_level];
  361.     register byte *data = pbt->tiles.data;
  362.  
  363.     if_debug7('H', "[H]Halftone cache slot 0x%lx: old=%d, new=%d, w=%d(%d), h=%d(%d):\n",
  364.           (ulong)data, old_level, level,
  365.           pbt->tiles.size.x, porder->width,
  366.           pbt->tiles.size.y, porder->num_bits / porder->width);
  367. #ifdef DEBUG
  368.     if ( level < 0 || level > porder->num_bits )
  369.     {    lprintf3("Error in render_ht: level=%d, old_level=%d, num_bits=%d\n", level, old_level, porder->num_bits);
  370.         return_error(gs_error_Fatal);
  371.     }
  372. #endif
  373.     /* Invert bits between the two pointers. */
  374.     /* Note that we can use the same loop to turn bits either */
  375.     /* on or off, using xor. */
  376.     /* The Borland compiler generates truly dreadful code */
  377.     /* if we don't assign the offset to a temporary. */
  378. #if arch_ints_are_short
  379. #  define invert_data(i)\
  380.      { uint off = p[i].offset; *(ht_mask_t *)&data[off] ^= p[i].mask; }
  381. #else
  382. #  define invert_data(i) *(ht_mask_t *)&data[p[i].offset] ^= p[i].mask
  383. #endif
  384. #ifdef DEBUG
  385. #  define invert(i)\
  386.      { if_debug3('H', "[H]invert level=%d offset=%u mask=0x%x\n",\
  387.              (int)(p + i - porder->bits), p[i].offset, p[i].mask);\
  388.        invert_data(i);\
  389.      }
  390. #else
  391. #  define invert(i) invert_data(i)
  392. #endif
  393. sw:    switch ( level - old_level )
  394.     {
  395.     default:
  396.         if ( level > old_level )
  397.         {    invert(0); invert(1); invert(2); invert(3);
  398.             p += 4; old_level += 4;
  399.         }
  400.         else
  401.         {    invert(-1); invert(-2); invert(-3); invert(-4);
  402.             p -= 4; old_level -= 4;
  403.         }
  404.         goto sw;
  405.     case 7: invert(6);
  406.     case 6: invert(5);
  407.     case 5: invert(4);
  408.     case 4: invert(3);
  409.     case 3: invert(2);
  410.     case 2: invert(1);
  411.     case 1: invert(0);
  412.     case 0: break;            /* Shouldn't happen! */
  413.     case -7: invert(-7);
  414.     case -6: invert(-6);
  415.     case -5: invert(-5);
  416.     case -4: invert(-4);
  417.     case -3: invert(-3);
  418.     case -2: invert(-2);
  419.     case -1: invert(-1);
  420.     }
  421. #undef invert
  422.     pbt->level = level;
  423.     pbt->tiles.id = new_id;
  424.     /*
  425.      * Check whether we want to replicate the tile in the cache.
  426.      * Since we only do this when all the renderings will fit
  427.      * in the cache, we only do it once per level, and it doesn't
  428.      * have to be very efficient.
  429.      */
  430.     /****** TEST IS WRONG if width > rep_width but tile.raster ==
  431.      ****** order raster.
  432.      ******/
  433.     if ( pbt->tiles.raster > porder->raster )
  434.       bits_replicate_horizontally(data, pbt->tiles.rep_width,
  435.                       pbt->tiles.rep_height, porder->raster,
  436.                       pbt->tiles.size.x, pbt->tiles.raster);
  437.     if ( pbt->tiles.size.y > pbt->tiles.rep_height &&
  438.          pbt->tiles.shift == 0
  439.        )
  440.       bits_replicate_vertically(data, pbt->tiles.rep_height,
  441.                     pbt->tiles.raster, pbt->tiles.size.y);
  442. #ifdef DEBUG
  443. if ( gs_debug_c('H') )
  444.     {    const byte *p = pbt->tiles.data;
  445.         int wb = pbt->tiles.raster;
  446.         const byte *ptr = p + wb * pbt->tiles.size.y;
  447.  
  448.         while ( p < ptr )
  449.         {    dprintf8(" %d%d%d%d%d%d%d%d",
  450.                  *p >> 7, (*p >> 6) & 1, (*p >> 5) & 1,
  451.                  (*p >> 4) & 1, (*p >> 3) & 1, (*p >> 2) & 1,
  452.                  (*p >> 1) & 1, *p & 1);
  453.             if ( (++p - data) % wb == 0 ) dputc('\n');
  454.         }
  455.     }
  456. #endif
  457.     return 0;
  458. }
  459.